Análise de Resultados dos Experimentos - Monitoramento de Sinais Vitais em Edge Computing
| Métrica | scenario1_baseline | scenario2_static | scenario3_vispac |
|---|---|---|---|
| Transmissões | 6,726,598 | 567,108 | 214,505 |
| Dados Brutos (MB) | 353.96 | 366.61 | 358.16 |
| Dados Comprimidos (MB) | 353.96 | 95.12 | 65.41 |
| Compressão Total (%) | 0.0% | 74.1% | 81.7% |
| PRD Média (%) | 0.0000% | 3.8911% | 1.2114% |
| ↳ PRD Risco Alto (%) | 0.0000% (n=0) | 0.4330% (n=216,060) | 0.6053% (n=194,274) |
| ↳ PRD Risco Moderado (%) | 0.0000% (n=0) | 1.1197% (n=44,859) | 1.2545% (n=6,046) |
| ↳ PRD Risco Baixo (%) | 0.0000% (n=0) | 6.4011% (n=92,293) | 8.4899% (n=4,205) |
| ↳ PRD Risco Mínimo (%) | 0.0000% (n=0) | 6.8824% (n=213,896) | 9.9169% (n=9,980) |
| Latência Média (ms) | 1380.4 ± 245.5 | 1271.2 ± 140.8 | 1182.5 ± 78.0 |
| CPU Média (%) | 0.2% | 0.2% | 0.2% |
| Memória Média (MB) | 89.0 | 87.5 | 87.9 |
● Algoritmo 2 (Backoff Exponencial): Após K=3 leituras estáveis (|v - vúlt| ≤ ε), o intervalo de coleta dobra até ICmax.
▲ Algoritmo 3 (Vigilância Contínua): Quando |v - vúlt| > ε, detecta variação anômala e reseta o intervalo para ICbase.
◆ Mudança de Risco: Quando o NEWS2 muda o nível de risco, os intervalos são resetados para os valores do novo nível.
| Cenário | Latência Processamento (ms) | Latência Forward (ms) |
|---|
| Cenário | Items Armazenados | Operações INSERT | Latência INSERT (ms) |
|---|
| Cenário | Redução Items Cloud | Melhoria Latência Forward |
|---|
Definição: Tempo decorrido na camada Fog para descompactar um batch, calcular o escore NEWS2 e validar os sinais vitais.
Cálculo: Timestamp de saída da descompactação - Timestamp de entrada do batch (em milissegundos).
Relevância: Impacto direto na responsividade do sistema para detecção de eventos críticos.
Definição: Tempo total para encaminhar dados comprimidos da Fog para a Cloud, incluindo transmissão de rede.
Cálculo: Timestamp de envio da Fog - Timestamp de recepção confirmada pela Cloud (em milissegundos).
Relevância: Mede efetivamente como a compressão e adaptação reduzem a sobrecarga de rede.
Definição: Percentual de redução no volume de pontos de dados armazenados na Cloud em relação ao baseline (Cenário 1).
Cálculo: (1 - Items_Cenário_N / Items_Baseline) × 100%
Relevância: Demonstra economia de armazenamento e redução de operações I/O no banco de dados.
Definição: Percentual de redução na latência de encaminhamento Fog→Cloud em relação ao baseline.
Cálculo: (1 - LatFwd_Cenário_N / LatFwd_Baseline) × 100%
Relevância: Impacto da compressão adaptativa na redução do tempo de transmissão.
Definição: Razão de compressão média em relação aos dados brutos.
Cálculo: (1 - Bytes_Comprimidos / Bytes_Brutos) × 100%
Relevância: Efetividade do algoritmo de compressão (SDT + Huffman/LZW).
Definição: Erro relativo introduzido pela compressão em relação aos valores originais.
Cálculo: √(Σ(valor_original - valor_reconstruído)² / Σ(valor_original)²) × 100%
Relevância: Valida qualidade do sinal após descompactação (< 2% para uso clínico).